4月2日,火山引擎AI创新巡展武汉站正式启动。现场披露最新数据:截至今年3月,豆包大模型日均Token使用量已突破120万亿,较3个月前实现翻倍,自2024年5月对外服务以来增长达1000倍。
活动现场。
同时,火山引擎总裁谭待现场宣布,Seedance 2.0 API面向企业用户开放公测。针对行业普遍关注的版权争议,谭待表示,正是因为需要搭建完善的版权保护体系,Seedance 2.0才选择此时正式开启API公测。目前,火山引擎已打造了全新版权IP保护机制,可有效保护人物形象的不同风格与年代形态。
Token调用量再创新高,多款AI产品集中落地
Token使用量是衡量AI发展速度的核心指标。在本次武汉巡展活动中,谭待对豆包大模型的日均Token使用量作了详细介绍:截至今年3月,豆包大模型日均Token使用量已突破120万亿,较3个月前直接翻倍;另外,目前在火山引擎上累计Token使用量超过一万亿的企业,已从去年底的100家增长到140家。在谭待看来,这一高速增长背后的核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。
谭待在接受记者采访时进一步提到,当前Seedance 2.0等视频生成模型快速普及,跨行业内容创作需求激增。“所有行业都有营销、传播的需求,而视频是最好的载体,视频内容制作属于垂直领域,涵盖影视、短剧、动画等多个细分领域,这些领域的token消耗量都在快速提升。”
与此同时,AI智能体已经进入企业的日常工作流。以火山引擎推出的“龙虾”智能体服务ArkClaw为例,谭待表示,自发布以来,ArkClaw持续快速迭代,“比如,它不仅仅可以快速适配飞书,还新增了微信、钉钉、微博等消息渠道的便捷配置功能;同时,我们还对ArkClaw的网盘功能进行了升级,帮助大家构建高效的端云协同存储空间。”
活动现场。
当天活动现场还宣布了三项关键落地动作:
·Seedance 2.0 API面向企业公测,重点解决企业批量生产排队问题,并搭载全新版权保护体系,满足营销、短剧、影视等场景的合规高效生产需求;
·推出ArkClaw智能体平台,明确企业落地AI的"养虾三要素",即模型、Skill和安全,降低企业构建与使用智能体门槛;
·搭建ClawHub中国镜像站,提升开发者访问速度,坚持开放生态,推动技能工具共享。
AI看端到端成本,模型能力是核心竞争力
谈及大模型成本与定价问题,谭待强调,不应该只看单Token价格,更要看端到端完成任务的总成本。他认为,当模型的智力水平提升时,模型自然会涨价,同时也会创造更大价值。“以我们的Seedance 2.0为例,它比之前的版本贵一些,但视频呈现效果更好,比传统工作流节省很多,这是以前做不到的。”
针对企业AI落地路径,谭待也分享了自己的看法。他认为,对企业而言,Agent建设有敏态和稳态两种思路,这两种思路应该同步进行。所谓敏态Agent,它强调的是探索,重点是解决个人生产力的问题,比如,如何成为一个更好的招聘者?如何成为一个市场数据分析的高手?当企业员工有想法时,“龙虾”类产品就能帮助他们快速实践落地。“这就是企业的‘创新试验厂’。”
另一类稳态Agent则是为了重点解决组织生产力的问题。“找到AI最佳实践后,我们就可以把它流程化,管理好成本、效率和风险。比如说合同交易、流程生产等,就需要将Agent流程化部署,降低幻觉,做好规模化服务。”
AICC是解决公有云数据安全问题的关键
“我认为AI私有化是行不通的。”谭待认为,当前AI迭代速度过快,私有化部署模型很容易短期内过期,芯片等硬件的生命周期也会很短。因此企业的AI转型需要通过“公有云”的方式,让最先进的AI技术被企业享受到,而AI机密计算(AICC)是解决公有云数据安全问题的关键。
谭待表示,火山引擎通过AI机密计算(AICC)实现端到端加密与受保护环境运行,从技术层面解决企业上云的数据隐私顾虑。“数据在端侧加密后,传输过程中全程加密,到服务端计算时,传统方式需要在内存中解密,存在明文被获取的风险,而我们叠加类CPU和GPU的TEE环境,确保解密后的明文仅在芯片的受保护环境中运行,其他程序无法探知和保存。”谭待进一步解释道,只有双方认证过签名的监控护栏程序,才能在该环境中运行,确保没有任何数据的录盘或出网行为。
针对行业普遍关注的AI版权争议问题,“保护一个IP形象,我们不仅要保护他当下的样子,还要保护十年前的样子,包括他穿古装、现代装,还有素描版、漫画版,传统技术难以满足如此全面的保护需求。”谭待表示,火山引擎打造了全新版权IP保护机制,可全面保护人物形象及其不同风格与年代形态。他直言,正是因为需要搭建完善的版权保护体系,Seedance 2.0才选择在此时开启API公测。
当前,全球AI市场竞争逻辑已发生转变,从拼参数、讲概念,转向拼落地能力、成本效率、安全合规与生态开放。在大模型“百花齐放”的当下,谭待认为,目前行业内并不存在“内卷”,因为模型能力提升的空间还很大。“现在的模型虽然已经很好,但未来还会有更优秀的模型出现,所以相比工程优化,模型能力的提升才是更重要的。”
采写:南都N视频记者王子黎 发自武汉